查看原文
其他

基于Kubernetes和Istio的Serverless框架Knative解析之Autoscaler

陈有坤 几米宋 2022-09-05

我们都是知道Kubernetes中个资源对象叫 autoscaler,该对象在serverless架构中更是不可或缺,有了它可以负责应用的自动水平伸缩,用户再也不用关心示例的个数和资源消耗,下文是来自阿里巴巴UC事业群基础研发部的陈有坤同学对Knative的解析之autoscaler部分,还有大量的解析等待放出,起关注本公众号的后续内容。

首先对Knative做个基础介绍。Knative是一款基于Kubernetes的平台,用来构建、部署和管理现代serverless应用的框架。该框架试图将云原生应用开发的以下三个领域的最佳实践结合起来:

  • 构建容器(和函数)

  • 为工作负载提供服务(和动态扩展)

  • 事件

Knative是由谷歌与Pivotal、IBM、Red Hat 和SAP紧密协作开发的。 


Knative构建在Kubernetes和Istio之上,它的设计考虑到了多种角色通过该框架进行交互,包括开发人员、运维人员和平台提供者。

Knative所涉及的角色(图片来源于Knative GitHub仓库)

Knative致力于提供可重用的“通用模式和最佳实践组合”实现,目前可用的组件包括:

  • Build:从源到容器的构建编排;

  • Eventing:管理和交付事件;

  • Serving:请求驱动的计算,可以缩放到零。

以上内容引用自: InfoQ | 谷歌发布Knative:用于构建、部署和管理Serverless工作负载的Kubernetes框架:http://www.infoq.com/cn/news/2018/07/knative-kubernetes-serverless

以上是对Knative的基本介绍,关于Knative的更多信息大家可以关注其GitHub:https://github.com/knative


下面首先解析的是Serving中的Autoscaling组件,该组件的功能是根据网络流量来自动伸缩应用实例的个数。

Knative是如何做伸缩容的?

处理伸缩容问题,首先要解决的问题是根据什么指标判断伸缩容?cpu、内存、请求数?这里knative使用的是请求数。

其次是伸缩多少的问题。

Knative的伸缩是依赖修改deployment的replica数实现的。

如何采集请求数?

启动revision的pod时,也会启动一个autoscaler(一个knative revision只启动一个autoscaler),autoscaler自己本身也会scale到0,用于接收请求数统计和处理伸缩容。

业务pod中,会注入queue-proxy sidecar,用于接收请求,在这里会统计并发数,每秒向autoscaler汇报,接收到的请求会转发给业务container。

注:单租户模式下一个revision启动一个autoscaler,多租户共用一个autoscaler

计算需要pod的个数?

autoscaler接收到并发统计的时候,会根据算法计算需要的pod个数。

算法中有两种模式,分别是panic和stable模式,一个是短时间,一个是长时间,为了解决短时间内请求突增的场景,需要快速扩容。

文档中描述的算法是,默认的target concurrency是1,如果一个revision 35QPS,每个请求花费0.25秒,Knative Serving 觉得需要 9 个 pod。

  1. ceil(35 * .25) = ceil(8.75) = 9

Stable Mode(稳定模式)

在稳定模式下,Autoscaler 根据每个pod期望的并发来调整Deployment的副本个数。根据每个pod在60秒窗口内的平均并发来计算,而不是根据现有副本个数计算,因为pod的数量增加和pod变为可服务和提供指标数据有一定时间间隔。

Panic Mode (恐慌模式)

Panic时间窗口默认是6秒,如果在6秒内达到2倍期望的并发,则转换到恐慌模式下。在恐慌模式下,Autoscaler根据这6秒的时间窗口计算,这样更能及时的响应突发的流量请求。每2秒调整Deployment的副本数达到想要的pod个数(或者最大10倍当前pod的数量),为了避免pod数量频繁变动,在恐慌模式下只能增加,不会减少。60秒后会恢复回稳定模式。

autoscaler单租户图

上图基于 https://github.com/knative/serving/blob/master/docs/scaling/DEVELOPMENT.md 绘制。

模式

  1. const (

  2.   // 每个pod实例同时只处理一个请求

  3.   RevisionRequestConcurrencyModelSingle RevisionRequestConcurrencyModelType = "Single"

  4.   // 每个pod实例同时处理多个请求

  5.   RevisionRequestConcurrencyModelMulti RevisionRequestConcurrencyModelType = "Multi"

  6. )

配置

  1. apiVersion: v1

  2. kind: ConfigMap

  3. metadata:

  4.  name: config-autoscaler

  5.  namespace: knative-serving

  6. data:

  7.  # Static parameters:

  8.  # 期望每个pod并发请求数

  9.  multi-concurrency-target: "1.0"

  10.  # 如果是单个并发,值要接近1.0

  11.  single-concurrency-target: "0.9"

  12.  # stable窗口时间,计算平均并发会用到。如果进入panic模式后,经过stable窗口时间也会恢复stable

  13.  stable-window: "60s"

  14.  # 如果平均并发在panic窗口时间内达到2倍目标并发,autoscaler进入panic模式。

  15.  # 在panic模式下,自动伸缩按在panic窗口时间的平均并发来操作。

  16.  panic-window: "6s"

  17.  # 最大增长比例,每次调整会根据并发计算增长比例,最大增长不超过这个值

  18.  max-scale-up-rate: "10"

  19.  # 计算并发值的参数,每一段时间得到最大并发,作为一个bucket,最后汇报的时候,

  20.  # 平均并发 = 各个bucket最大并发之和 / 总bucket数,汇报间隔是1秒(hard coded)

  21.  concurrency-quantum-of-time: "100ms"

  22.  # 是否开启缩容到0

  23.  enable-scale-to-zero: "true"

  24.  # 实验性:开启垂直扩容

  25.  # Requires a VPA installation (e.g. ./third_party/vpa/install-vpa.sh)

  26.  enable-vertical-pod-autoscaling: "false"

  27.  # 如果开启了enable-vertical-pod-autoscaling,这个值就会替代multi-concurrency-target,

  28.  # 如果成熟了后期会变成默认值

  29.  vpa-multi-concurrency-target: "10.0"

  30.  # 多长时间调整一次

  31.  tick-interval: "2s"

  32.  # Dynamic parameters (take effect when config map is updated):

  33.  # 空闲多长时间缩容到0

  34.  scale-to-zero-threshold: "5m"



社区网址:http://www.servicemesher.com

Slack:https://servicemesher.slack.com 需要邀请才能加入,有志于加入ServiceMesher社区为Service Mesh作出贡献的同学可以联系我。

Twitter: https://twitter.com/servicemesher

欢迎大家加入ServiceMesher社区,并在本公众号上踊跃投稿,投稿方式请访问:https://github.com/servicemesher/trans


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存